最近,已经提出了基于力量的论证框架(Strafs)来模拟与参数相关的一些定量强度的情况。在这种情况下,应计的概念对应于集体攻击参数的一组参数。已经定义了一些语义,这些语义对集体击败目标的应计的存在敏感,而他们的个人要素不能。但是,到目前为止,仅研究了该框架和语义的表面。确实,现有文献集中于稳定语义对Strafs的适应。在本文中,我们推进研究并研究基于可接受性语义的适应。尤其是,我们表明,文献中定义的强大可接受性并不满足理想的财产,即粪便的基本引理。因此,我们提出了一个替代定义,该定义诱发了表现为预期的语义。然后,我们研究了这些新语义的计算问题,特别是我们表明推理的复杂性与几乎所有情况下标准论证框架相应决策问题的复杂性相似。然后,我们提出了用于计算(强和弱)扩展的伪树树限制的翻译。我们对我们的方法进行了实验评估的结论,该评估特别表明,它可以很好地扩展到解决一个扩展和枚举所有内容的问题。
translated by 谷歌翻译
Physics-Informed Neural Networks (PINNs) are gaining popularity as a method for solving differential equations. While being more feasible in some contexts than the classical numerical techniques, PINNs still lack credibility. A remedy for that can be found in Uncertainty Quantification (UQ) which is just beginning to emerge in the context of PINNs. Assessing how well the trained PINN complies with imposed differential equation is the key to tackling uncertainty, yet there is lack of comprehensive methodology for this task. We propose a framework for UQ in Bayesian PINNs (B-PINNs) that incorporates the discrepancy between the B-PINN solution and the unknown true solution. We exploit recent results on error bounds for PINNs on linear dynamical systems and demonstrate the predictive uncertainty on a class of linear ODEs.
translated by 谷歌翻译
The NASA Astrophysics Data System (ADS) is an essential tool for researchers that allows them to explore the astronomy and astrophysics scientific literature, but it has yet to exploit recent advances in natural language processing. At ADASS 2021, we introduced astroBERT, a machine learning language model tailored to the text used in astronomy papers in ADS. In this work we: - announce the first public release of the astroBERT language model; - show how astroBERT improves over existing public language models on astrophysics specific tasks; - and detail how ADS plans to harness the unique structure of scientific papers, the citation graph and citation context, to further improve astroBERT.
translated by 谷歌翻译
Mobile traffic prediction is of great importance on the path of enabling 5G mobile networks to perform smart and efficient infrastructure planning and management. However, available data are limited to base station logging information. Hence, training methods for generating high-quality predictions that can generalize to new observations on different parties are in demand. Traditional approaches require collecting measurements from different base stations and sending them to a central entity, followed by performing machine learning operations using the received data. The dissemination of local observations raises privacy, confidentiality, and performance concerns, hindering the applicability of machine learning techniques. Various distributed learning methods have been proposed to address this issue, but their application to traffic prediction has yet to be explored. In this work, we study the effectiveness of federated learning applied to raw base station aggregated LTE data for time-series forecasting. We evaluate one-step predictions using 5 different neural network architectures trained with a federated setting on non-iid data. The presented algorithms have been submitted to the Global Federated Traffic Prediction for 5G and Beyond Challenge. Our results show that the learning architectures adapted to the federated setting achieve equivalent prediction error to the centralized setting, pre-processing techniques on base stations lead to higher forecasting accuracy, while state-of-the-art aggregators do not outperform simple approaches.
translated by 谷歌翻译
最近对反向传播的近似(BP)减轻了BP的许多计算效率低下和与生物学的不兼容性,但仍然存在重要的局限性。此外,近似值显着降低了基准的准确性,这表明完全不同的方法可能更富有成果。在这里,基于在软冠军全网络中Hebbian学习的最新理论基础上,我们介绍了多层softhebb,即一种训练深神经网络的算法,没有任何反馈,目标或错误信号。结果,它通过避免重量传输,非本地可塑性,层更新的时间锁定,迭代平衡以及(自我)监督或其他反馈信号来实现效率,这在其他方法中是必不可少的。与最先进的生物学知识学习相比,它提高的效率和生物兼容性不能取得准确性的折衷,而是改善了准确性。 MNIST,CIFAR-10,STL-10和IMAGENET上最多五个隐藏层和添加的线性分类器,分别达到99.4%,80.3%,76.2%和27.3%。总之,SOFTHEBB显示出与BP的截然不同的方法,即对几层的深度学习在大脑中可能是合理的,并提高了生物学上的机器学习的准确性。
translated by 谷歌翻译
微分方程的解决方案具有重要的科学和工程意义。物理知识的神经网络(PINN)已成为解决微分方程的有前途方法,但它们缺乏使用任何特定损失函数的理论理由。这项工作提出了微分方程gan(DEQGAN),这是一种使用生成对抗网络来求解微分方程的新方法,以“学习损失函数”以优化神经网络。在十二个普通和部分微分方程的套件上呈现结果,包括非线性汉堡,艾伦·卡恩,汉密尔顿和改良的爱因斯坦的重力方程,我们表明deqgan可以比使用$ pinn的均方一数级别的均方一数级别。 L_2 $,$ L_1 $和HUBER损失功能。我们还表明,Deqgan可以实现与流行数值方法竞争的解决方案精确度。最后,我们提出了两种方法,以提高Deqgan对不同的高参数设置的鲁棒性。
translated by 谷歌翻译
我们在ISWC 2022上对知识图模型的知识形象人群提出了一个用于语言模型的系统,该系统对知识库构建(LM-KBC)挑战进行了评估。我们的系统涉及特定于任务的预培训以改善蒙版的LM表示。对象令牌,促使分解候选对象以及其他高质量检索的方法。我们的系统是基于BERT LM的LM-KBC挑战赛曲目1的获胜者;它在挑战的隐藏测试集中获得了55.0%的F-1得分。
translated by 谷歌翻译
我们开发了BenchPress,这是第一个用于编译器的ML基准生成器,它是在源代码的功能空间表示中可检测的。卧推通过在空序列或现有序列的任何部分中添加新代码,通过共同观察其左和右下文,从而综合编译函数,从而达到出色的汇编速率。卧推操纵基准的生成迈向了所需的目标特征,这对于最先进的合成器(或实际上人类)不可能达到。与(a)clgen-最先进的ML合成器,(b)Clsmith Fuzzer,(c)Srciror Mutator或(d)人写代码相比来自Github。 Benchpress是第一个通过主动学习搜索功能空间的生成器,以生成可以改善下游任务的基准。我们展示了Grewe's等人如何使用台式。与其他技术相比,CPU与GPU启发式模型在台式基准测试中进行训练时可以获得更高的加速。卧推是一个强大的代码生成器:其生成的样品以86%的速度编译,而Clgen的2.33%则以86%的速度编译。从一个空的固定输入开始,台式比CLGEN产生的10倍,可汇编的OpenCL基准测试,这些基准比Clgen更大,并且更具多样性。
translated by 谷歌翻译
储层计算机(RCS)是所有神经网络训练最快的计算机之一,尤其是当它们与其他经常性神经网络进行比较时。 RC具有此优势,同时仍能很好地处理顺序数据。但是,由于该模型对其超参数(HPS)的敏感性,RC的采用率滞后于其他神经网络模型。文献中缺少一个自动调谐这些参数的现代统一软件包。手动调整这些数字非常困难,传统网格搜索方法的成本呈指数增长,随着所考虑的HP数量,劝阻RC的使用并限制了可以设计的RC模型的复杂性。我们通过引入RCTORCH来解决这些问题,Rctorch是一种基于Pytorch的RC神经网络软件包,具有自动HP调整。在本文中,我们通过使用它来预测不同力的驱动摆的复杂动力学来证明rctorch的实用性。这项工作包括编码示例。示例Python Jupyter笔记本可以在我们的GitHub存储库https://github.com/blindedjoy/rctorch上找到,可以在https://rctorch.readthedocs.io/上找到文档。
translated by 谷歌翻译
关于使用物理信息的神经网络求解微分方程的广泛研究。尽管这种方法在许多情况下已被证明是有利的,但主要批评在于它缺乏分析误差范围。因此,它不如传统的同行(例如有限差异方法)可信。本文表明,可以在数学上得出在一类微分方程线性系统上训练的物理信息的神经网络的明确误差界限。更重要的是,评估此类误差界限仅需要评估感兴趣域上的微分方程残留无限规范。我们的工作显示了网络残差之间的联系,该网络残差被称为损耗函数,以及解决方案的绝对误差,这通常是未知的。我们的方法是半生态学的,并且独立于对网络的实际解决方案或复杂性或架构的了解。使用在线性ODE和线性ODES系统上制成的解决方案的方法,我们从经验上验证了错误评估算法,并证明实际误差严格存在于我们派生的界限内。
translated by 谷歌翻译